Световни новини без цензура!
Изкуственият интелект не винаги помага за намаляване на прегарянето на лекарите, сочат проучвания
Снимка: foxnews.com
Fox News | 2024-05-11 | 01:05:21

Изкуственият интелект не винаги помага за намаляване на прегарянето на лекарите, сочат проучвания

Използването на генеративен AI може да не е потребно за понижаване на прегарянето в опазването на здравето, демонстрират нови проучвания.

Предишни проучвания демонстрират, че увеличеното време, прекарано в потребление на системи за електронни здравни досиета (EHR) и справяне с административни отговорности, е било задължение за лекарите.

Така че някои хора оповестиха изкуствения разсъдък като евентуално решение — само че скорошни следствия на здравните системи на Съединени американски щати откриха, че огромните езикови модели (LLM) не опростяват ежедневните отговорности на клиницистите.

Например, обсервационно изследване от 2023 година в Brigham и Women's Hospital в Бостън, Масачузетс, изследваха въздействието от потреблението на AI за електронни известия на пациенти.

Изследователите подтикнаха огромен езиков модел да отговори на симулирани въпроси от пациенти с рак - по-късно съпоставиха изхода му с отговорите от шест табла -сертифицирани радиационни онколози.

След това медицинските експерти редактираха отговорите, генерирани от AI, в „ клинично допустими “ отговори, с цел да ги изпратят на пациентите.

Нови изследвания демонстрират, че генеративният AI може да не помогне при прегаряне измежду лекари, както се смяташе по-рано. (iStock)

Проучването, оповестено в The Lancet Digital Health, откри, че плановете за LLM съставляват „ риск от съществено увреждане в 11 от 156 отговора на изследването и гибел в един отговор на анкетата. "

" По-голямата част от нездравословните отговори се дължат на погрешно установяване или предаване на остротата на сюжета и целесъобразното деяние ", пишат откривателите.

Изследователите стигнаха до заключението, че резултатите, подкрепени от LLM (тези, редактирани от лекари), демонстрират „ най-хубавия сюжет от двата свята “ — понижават натоварването на лекарите, като в същото време подсигуряват, че пациентите получават точна информация.

„ Тези ранните констатации … демонстрират нуждата от задълбочена оценка на LLM в планувания им клиничен подтекст, отразявайки точната задача и равнището на човешки контрол “, заключава изследването.

Изследователите заключиха, че резултатите, подкрепени от LLM, демонстрират „ най-хубавия сюжет от двата свята ", намалявайки натоварването на лекарите, като в същото време обезпечава поредност на отговорите и усъвършенства образованието на пациентите. (iStock)

Кодове за здравно таксуване 

Друго изследване от връх Синай в Ню Йорк Здравната система оцени четири разнообразни вида огромни езикови модели за продуктивност и модели на неточности при поръчки за кодове за здравно фактуриране.

Изследването, оповестено в списанието NEJM AI, откри, че всички тествани LLM са се показали неприятно се оправят със поръчките за медицински кодове, „ постоянно генерират кодове, предаващи неточна или изфабрикувана информация “.

Проучването заключава, че " LLM не са подобаващи за потребление при задания за здравно шифроване без спомагателни проучвания. " Проучването е финансирано от AGA Research Foundation и Националните институти по опазване на здравето (NIH).

Едно изследване откри, че всички тествани LLMs се показват неприятно при поръчки за медицински кодове — и че казусът се нуждае от спомагателни проучвания. (iStock)

Изследователите означават, че макар че тези модели могат да „ доближават смисъла на доста кодове “, те също по този начин „ демонстрират неприемлива липса на точност и висока податливост към подправяне на кодове “.

„ Това има обилни последствия за таксуването, вземането на клинични решения, подобряването на качеството, проучванията и здравната политика “, пишат откривателите.

Съобщенията на пациентите и времето на лекарите

Трето изследване, оповестено от JAMA Network, от Медицинския факултет на Калифорнийския университет в Сан Диего, прави оценка направените от AI отговори на известия на пациенти и времето, прекарано от лекарите в редактирането им.

Предположението беше, че генеративните чернови с изкуствен интелект ще понижат времето, прекарано от лекаря в осъществяване на тези задания, само че резултатите демонстрираха друго.

„ Генеративните чернови на AI бяха свързани със доста увеличено време за четене, без смяна в отговора време, доста увеличена дължина на отговора и [само] някои възприемани изгоди “, откри изследването.

Изследователите допускат, че са нужни „ строги емпирични проби “ за по-нататъшна оценка на успеваемостта на ИИ и опита на пациентите.

В изследването на Калифорнийския университет в Сан Диего беше открито, че генеративният AI предизвиква „ увеличено време за четене, без смяна във времето за отговор [и] доста увеличена дължина на отговора “ в известията на пациентите. (iStock)

Мисли на лекаря по отношение на AI

Дейвид Аташру, лекар по медицина, основен медицински шеф на Qventus, основано на AI решение за хирургично ръководство в Маунтин Вю, Калифорния, реагира на резултатите от проучването в изявление за Fox News Digital. (Той не е взел участие в проучването.)

„ Виждаме голям капацитет за AI да поеме по-нискорискови, само че мощно автоматизирани задания, които обичайно попадат върху главните, само че постоянно подценявани „ свързващи функции “ в здравни грижи — като плановици, медицински асистенти, мениджъри на случаи и навигатори по грижи “, сподели той. упования по отношение на представянето на [AI]. “

„ Тези експерти са от решаващо значение за поддържането на процеси, които са директно свързани с клиничните резултати, само че прекарват забележителна част от времето си в административни задания като анализиране на факсове, обобщаване на бележки и обезпечаване на нужната документи. "

При автоматизирането на тези задания Atashroo допусна, че генеративният AI може да помогне за възстановяване на успеваемостта и ефикасността на клиничните грижи.

„ Когато се обмисля внедряването на генеративен AI, е от решаващо значение да се зададат реалистични упования по отношение на неговата продуктивност “, сподели той. 

„ Стандартът не постоянно може да бъде съвършенство, защото даже хората, които сега извършват тези задания, не са безпогрешни. "

„ Стандартът не постоянно може да бъде съвършенство, защото даже хората, които сега извършват тези задания, не са безпогрешни ", сподели специалист по изкуствен интелект. (iStock)

В някои сюжети той Предполага се, че изкуственият разсъдък може да помогне да служи като „ защитна мрежа “ за хващане на всевъзможни пропуски на членовете на екипа.

Задачите от време на време може да останат нерешени „ просто тъй като няма задоволително време за справяне с тях “, означи Аташру.

„ Генеративният AI може да помогне за ръководството на случаите по-последователно, в сравнение с разрешава настоящият ни потенциал. “

" Когато обмисляме разгръщането на генеративен AI, от решаващо значение е да се зададат реалистични упования за неговото показване. "

Безопасността и ефикасността са „ първостепенни " в приложенията на AI, означи също докторът.

„ Това значи освен създаване на модели със строги инспекции на качеството, само че и включване на постоянни оценки от човешки специалисти за валидиране на тяхното показване “, сподели той.

„ Тази двуслойна инспекция подсигурява, че нашите AI решения са по едно и също време виновни и надеждни, преди да бъдат мащабирани. “

Atashroo също по този начин означи, че „ прозрачността в създаването и внедряването на AI технологии е от значително значение за построяването на доверие сред болничните сътрудници и пациентите. “

.

Анджелика Стайбъл е публицист за метода на живот за Fox News Digital.

Източник: foxnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!